上下文化的单词嵌入会导致自然语言理解中最新的表演。最近,诸如BERT之类的预先训练的深层上下文化的文本编码器显示了其在改善包括抽象性摘要在内的自然语言任务方面的潜力。对话摘要中的现有方法着重于将大型语言模型纳入摘要任务,该任务是在大规模语料库中培训的,这些任务由新闻文章组成,而不是多个演讲者的对话。在本文中,我们介绍了自我监督的方法,以补偿培训对话摘要模型的缺点。我们的原则是使用借口对话文本检测不一致的信息流,以增强伯特对对话文本表示形式的上下文能力。我们使用增强的BERT在共享的编码器架构上构建并微调一个抽象的对话摘要模型。我们通过Samsum语料库(Samsum copus)进行了验证评估我们的抽象对话摘要,这是一个最近介绍的带有抽象性对话摘要的数据集。我们所有的方法都为在胭脂分数中测得的抽象摘要做出了改进。通过一项广泛的消融研究,我们还向关键模型超参数,切换话语和掩盖对话者的概率提出了灵敏度分析。
translated by 谷歌翻译
组合优化的神经方法(CO)配备了一种学习机制,以发现解决复杂现实世界问题的强大启发式方法。尽管出现了能够在单一镜头中使用高质量解决方案的神经方法,但最先进的方法通常无法充分利用他们可用的解决时间。相比之下,手工制作的启发式方法可以很好地执行高效的搜索并利用给他们的计算时间,但包含启发式方法,这些启发式方法很难适应要解决的数据集。为了为神经CO方法提供强大的搜索程序,我们提出了模拟引导的光束搜索(SGB),该搜索(SGB)在固定宽度的树搜索中检查了候选解决方案,既是神经网络学习的政策又是模拟(推出)确定有希望的。我们将SGB与有效的主动搜索(EAS)进一步融合,其中SGB提高了EAS中反向传播的解决方案的质量,EAS提高了SGB中使用的策略的质量。我们评估了有关众所周知的CO基准的方法,并表明SGB可显着提高在合理的运行时假设下发现的解决方案的质量。
translated by 谷歌翻译
Generally, regularization-based continual learning models limit access to the previous task data to imitate the real-world setting which has memory and privacy issues. However, this introduces a problem in these models by not being able to track the performance on each task. In other words, current continual learning methods are vulnerable to attacks done on the previous task. We demonstrate the vulnerability of regularization-based continual learning methods by presenting simple task-specific training time adversarial attack that can be used in the learning process of a new task. Training data generated by the proposed attack causes performance degradation on a specific task targeted by the attacker. Experiment results justify the vulnerability proposed in this paper and demonstrate the importance of developing continual learning models that are robust to adversarial attack.
translated by 谷歌翻译
非本地(NL)块是一个流行的模块,它展示了模拟全局上下文的功能。但是,NL块通常具有沉重的计算和记忆成本,因此将块应用于高分辨率特征图是不切实际的。在本文中,为了研究NL块的功效,我们经验分析了输入特征向量的大小和方向是否正确影响向量之间的注意力。结果表明,SoftMax操作的效率低下,该操作通常用于将NL块的注意力图归一化。通过软磁性操作归一化的注意力图极大地依赖于关键向量的大小,并且如果删除幅度信息,则性能将退化。通过用缩放系数替换SoftMax操作,我们证明了CIFAR-10,CIFAR-100和TININE-IMAGENET的性能提高。此外,我们的方法显示了嵌入通道减少和嵌入重量初始化的鲁棒性。值得注意的是,我们的方法在没有额外的计算成本的情况下使多头注意力可用。
translated by 谷歌翻译
数据稀缺和噪声是机器学习工业应用中的重要问题。然而,设计可扩展和广义的方法往往挑战,以解决具有黑盒式模型的数据集的基本分布和语义特性。因此,以数据为中心的方法对于机器学习操作管道的自动化至关重要。为了充当这种自动化的基础,我们建议一个用于改进图像分类问题中数据质量的域名不可知的管道。该管道包含数据估值,清洁和增强。通过这些方法的适当组合,我们只能在数据中心AI竞争中达到84.711%的测试精度(最荣誉在最具创新性中提及)。
translated by 谷歌翻译